The increasing reliance on online communities for healthcare information by patients and caregivers has led to the increase in the spread of misinformation, or subjective, anecdotal and inaccurate or non-specific recommendations, which, if acted on, could cause serious harm to the patients. Hence, there is an urgent need to connect users with accurate and tailored health information in a timely manner to prevent such harm. This paper proposes an innovative approach to suggesting reliable information to participants in online communities as they move through different stages in their disease or treatment. We hypothesize that patients with similar histories of disease progression or course of treatment would have similar information needs at comparable stages. Specifically, we pose the problem of predicting topic tags or keywords that describe the future information needs of users based on their profiles, traces of their online interactions within the community (past posts, replies) and the profiles and traces of online interactions of other users with similar profiles and similar traces of past interaction with the target users. The result is a variant of the collaborative information filtering or recommendation system tailored to the needs of users of online health communities. We report results of our experiments on an expert curated data set which demonstrate the superiority of the proposed approach over the state of the art baselines with respect to accurate and timely prediction of topic tags (and hence information sources of interest).
translated by 谷歌翻译
A*算法通常用于求解NP-HARD组合优化问题。当提供准确的启发式函数时,A*可以解决溶液深度多项式的时间复杂性中的此类问题。这一事实意味着许多此类问题的准确启发式近似也是NP-HARD。在这种情况下,我们研究了一系列最新出版物,这些出版物建议使用深神网络进行启发式近似。我们断言这些作品遭受了固有的可伸缩性限制,因为在假设p $ \ ne $ np的假设下,这种方法导致(a)网络在实例大小中呈指数级的网络大小,或者(b)启发式近似准确性与实例大小相反。我们的主张得到了三个代表性的NP搜索问题的实验结果的支持,这些搜索问题表明,将深层神经网络准确地拟合到启发式功能上需要将网络大小与实例大小成倍扩展。
translated by 谷歌翻译
在本文中,我们提出了用于滚动快门摄像机的概率连续时间视觉惯性频道(VIO)。连续的时轨迹公式自然促进异步高频IMU数据和运动延伸的滚动快门图像的融合。为了防止棘手的计算负载,提出的VIO是滑动窗口和基于密钥帧的。我们建议概率地将控制点边缘化,以保持滑动窗口中恒定的密钥帧数。此外,可以在我们的连续时间VIO中在线校准滚动快门相机的线曝光时间差(线延迟)。为了广泛检查我们的连续时间VIO的性能,对公共可用的WHU-RSVI,TUM-RSVI和Sensetime-RSVI Rolling快门数据集进行了实验。结果表明,提出的连续时间VIO显着优于现有的最新VIO方法。本文的代码库也将通过\ url {https://github.com/april-zju/ctrl-vio}开源。
translated by 谷歌翻译
给定的用户输入的自动生成平面图在建筑设计中具有很大的潜力,最近在计算机视觉社区中探索了。但是,大多数现有方法以栅格化图像格式合成平面图,这些图像很难编辑或自定义。在本文中,我们旨在将平面图合成为1-D向量的序列,从而简化用户的互动和设计自定义。为了产生高保真矢量化的平面图,我们提出了一个新颖的两阶段框架,包括草稿阶段和多轮精炼阶段。在第一阶段,我们使用图形卷积网络(GCN)编码用户的房间连接图输入,然后应用自回归变压器网络以生成初始平面图。为了抛光最初的设计并生成更具视觉吸引力的平面图,我们进一步提出了一个由GCN和变压器网络组成的新颖的全景精炼网络(PRN)。 PRN将初始生成的序列作为输入,并完善了平面图设计,同时鼓励我们提出的几何损失来鼓励正确的房间连接。我们已经对现实世界平面图数据集进行了广泛的实验,结果表明,我们的方法在不同的设置和评估指标下实现了最先进的性能。
translated by 谷歌翻译
非对比度CT(NCCT)图像中准确的梗塞分割是迈向计算机辅助急性缺血性中风(AIS)评估的关键步骤。在临床实践中,脑半球的双侧对称比较通常用于定位病理异常。最近的研究探索了不对称的协助AIS分割。但是,在评估其对AIS的贡献时,大多数以前基于对称性的工作都混合了不同类型的不对称性。在本文中,我们提出了一个新型的不对称分解网络(ADN),以自动将NCCT中的病理不对称性和内在的解剖不对称分离,以进行更有效和可解释的AIS分割。 ADN首先基于输入NCCT进行不对称分解,该输入nccts产生不同类型的3D不对称图。然后生成合成的,固有的 - 敏化补偿和病理 - 空气 - 对称盐的NCCT体积,后来用作分割网络的输入。 ADN的培训结合了领域知识,并采用了组织型意识到的正则化损失函数,以鼓励临床上敏感的病理不对称提取。加上无监督的3D转换网络,ADN在公共NCCT数据集上实现了最新的AIS分割性能。除了出色的表现外,我们认为学到的临床可解剖的不对称图也可以为更好地理解AIS评估提供见解。我们的代码可从https://github.com/nihaomiao/miccai22_adn获得。
translated by 谷歌翻译
深度焦点(DFF)是一种使用相机的焦点变化的深度的技术。在这项工作中,我们提出了一种卷积神经网络(CNN),以在焦点堆叠中找到最佳聚焦的像素,并从焦点估计推断深度。网络的关键创新是新颖的深差分焦卷(DFV)。通过使用不同焦距的堆叠特征计算一阶导数,DFV能够捕获对焦分析的焦点和上下文信息。此外,我们还引入了焦点估计的概率回归机制,以处理稀疏采样的焦点堆栈,并为最终预测提供不确定性估计。综合实验表明,所提出的模型在多个数据集上实现了最先进的性能,具有良好的相互性和快速。
translated by 谷歌翻译
组织病理学分析是对癌前病变诊断的本金标准。从数字图像自动组织病理学分类的目标需要监督培训,这需要大量的专家注释,这可能是昂贵且耗时的收集。同时,精确分类从全幻灯片裁剪的图像斑块对于基于标准滑动窗口的组织病理学幻灯片分类方法是必不可少的。为了减轻这些问题,我们提出了一个精心设计的条件GaN模型,即hostogan,用于在类标签上合成现实组织病理学图像补丁。我们还研究了一种新颖的合成增强框架,可选择地添加由我们提出的HADOGAN生成的新的合成图像补丁,而不是直接扩展与合成图像的训练集。通过基于其指定标签的置信度和实际标记图像的特征相似性选择合成图像,我们的框架为合成增强提供了质量保证。我们的模型在两个数据集上进行评估:具有有限注释的宫颈组织病理学图像数据集,以及具有转移性癌症的淋巴结组织病理学图像的另一个数据集。在这里,我们表明利用具有选择性增强的组织产生的图像导致对宫颈组织病理学和转移性癌症数据集分别的分类性能(分别为6.7%和2.8%)的显着和一致性。
translated by 谷歌翻译
已经在医学成像结构域中应用了生成模型,用于各种图像识别和综合任务。然而,对于诸如协助医学训练的重要应用,仍然需要更可控和可解释的图像合成模型。在这项工作中,我们利用了有效的自我关注和对比学习模块,并在最先进的生成的对抗网络(GAN)上建立,以实现一个属性感知的图像综合模型,称为attributegan,它可以产生高质量基于多属性输入的组织病理学图像。与现有的单个属性条件生成模型相比,我们提出的模型更好地反映了输入属性,并实现了属性值之间的更平滑的插值。我们对尿液癌的染色H&E图像的组织病理学数据集进行实验,并通过与最先进的模型以及我们模型的不同变体来展示我们提出的模型的有效性。代码可在https://github.com/karenyyy/miccai2021AttribUtegan获得。
translated by 谷歌翻译
在急诊室(ER)环境中,中风分类或筛查是一个普遍的挑战。由于MRI的慢速吞吐量和高成本,通常会进行快速CT而不是MRI。在此过程中通常提到临床测试,但误诊率仍然很高。我们提出了一个新型的多模式深度学习框架,深沉的中风,以通过识别较小的面部肌肉不协调的模式来实现计算机辅助中风的存在评估,并使怀疑急性环境中的中风的患者无能为力。我们提出的深雷克斯(Deepstroke)在中风分流器中容易获得一分钟的面部视频数据和音频数据,用于局部面部瘫痪检测和全球语音障碍分析。采用了转移学习来减少面部侵蚀偏见并提高普遍性。我们利用多模式的横向融合来结合低水平和高级特征,并为关节训练提供相互正则化。引入了新型的对抗训练以获得无身份和中风的特征。与实际急诊室患者进行的视频ADIO数据集进行的实验表明,与分类团队和ER医生相比,中风的表现要优于最先进的模型,并且取得更好的性能,比传统的敏感性高出10.94%,高7.37%的精度高出7.37%。当特异性对齐时,中风分类。同时,每个评估都可以在不到六分钟的时间内完成,这表明该框架的临床翻译潜力很大。
translated by 谷歌翻译
In this paper, we propose an Attentional Generative Adversarial Network (AttnGAN) that allows attention-driven, multi-stage refinement for fine-grained text-to-image generation. With a novel attentional generative network, the At-tnGAN can synthesize fine-grained details at different subregions of the image by paying attentions to the relevant words in the natural language description. In addition, a deep attentional multimodal similarity model is proposed to compute a fine-grained image-text matching loss for training the generator. The proposed AttnGAN significantly outperforms the previous state of the art, boosting the best reported inception score by 14.14% on the CUB dataset and 170.25% on the more challenging COCO dataset. A detailed analysis is also performed by visualizing the attention layers of the AttnGAN. It for the first time shows that the layered attentional GAN is able to automatically select the condition at the word level for generating different parts of the image.
translated by 谷歌翻译